Perubahan Paradigma
Kita sedang berpindah dari "kinerja-sekalipun-dengan-harga-berapa-pun" mentalitas menuju AI yang Bertanggung Jawab (RAI) kerangka kerja. Dalam era baru ini, keberhasilan teknis sangat bergantung pada ketahanan etika dan perlindungan keselamatan.
1. Optimasi Terbatas
Secara historis, tujuannya adalah meminimalkan fungsi kerugian $L(\theta)$. Paradigma baru menganggap AI sebagai masalah optimasi terbatas: $$\max P \text{ dengan syarat } C_1, C_2, \dots, C_n$$ di mana $C$ mewakili ambang batas keselamatan dan keadilan yang tidak dapat ditawar.
2. Kesenjangan "In-Vitro" vs. "In-Vivo"
Model sering mencapai hasil terbaik (SOTA) pada uji coba statis (in-vitro) tetapi menunjukkan kegagalan kritis dalam lingkungan sosioteknologi dunia nyata (in-vivo) karena interaksi tak terduga.
Kiri: Akurasi/kecepatan tinggi, keselamatan/transparansi nol. Kanan: Segi enam seimbang yang mewakili keselamatan, keadilan, dan kemampuan penjelasan.
Contoh: Perdagangan Frekuensi Tinggi
Model yang hanya berfokus pada kinerja berhasil jika memaksimalkan ROI. Model RAI gagal jika mencapai ROI tinggi tetapi memicu "flash crash" karena kurangnya perlindungan stabilitas pasar.